查看原文
其他

我和AI虚拟男(女)友对话的内容可以被服务商公开吗?——对某虚拟人聊天平台用户条款的分析

AI与网络法团队 AI与网络法 2024-01-08

前言


          本文作者 | 郭佳仪  李卓霖  陶园  曾晓洋


近日,我们发现某款虚拟人聊天平台软件可供用户与虚拟人进行聊天,可以满足用户的一定情感需要。但是,该款软件的《用户协议》中关于对用户与虚拟人交互内容处理的条款似有不妥之处。
根据该条的表述,用户和虚拟人类的对话内容有可能被公开,可能带来侵犯数据主体的个人信息权益、隐私权的现实风险,也存在违反《中华人民共和国个人信息保护法》(以下简称“《个人信息保护法》”)的法律风险。此外,该条表述与《生成式人工智能服务管理办法(征求意见稿)》的相关规定也不符
本文分析了《用户协议》中上述交互内容条款(以下简称“交互内容条款”)的含义、可能的来源,以及其涉及的法律风险与现实风险。此外,我们还以OpenAI、讯飞作为示例性范本,分析了其中关于生成式人工智能交互内容处理的规定。(关于其他运营商相关条款的分析,我们将单独在另一篇文章中展示。)
我们相信,由于用户输入信息的敏感性,特别是在这种与情感性虚拟人的交互中,用户对输入信息有着较高的隐私期待。从正常商业逻辑上来看,该公司应该不会有公开用户输入信息的打算或者计划。该用户条款可能仅是一个“不算美丽”的误会。



  一 

   对《用户协议》交互内容条款的分析


(一)来看《用户协议》交互内容条款本身


《用户协议》[1]交互内容条款的规定如下:“您在使用本软件的过程中可能会使用与虚拟人交互的功能,您在此授予该公司[2]一项永久的、全球性的、非排他的、可再许可的、免费的、不可撤销的许可,使本公司能够以宣传、推广、开发、运营、销售等一切合法商业或非商业目的而复制、制作、展示、再现、表演、转换、发行、传播及以其他合法方式使用您在本软件中输入的信息及您与虚拟人的交互内容。”


从个人信息权利主体权利维护的角度来看,首先可以明确的是,用户输入的聊天内容基本是非公开性质的私密信息(好比微信私人聊天内容,无非是聊天对象是不是虚拟人的区别罢了);其次,用户输入的聊天内容可能涉及不愿为外人所知的个人信息、隐私。作为一款虚拟人类互动型应用,用户与虚拟人类对话的内容可能会带有个人情感,甚至涉及部分私密性内容等敏感信息,从一般理性人的角度来看,用户显然不会希望这些非公开的、带有个人信息、情感色彩等隐私性的内容被外界公众所知晓,因此,我们认为该条存在侵犯用户个人信息权益、隐私权的风险(下文将详述)。


从个人信息处理者履行义务的角度来看,该条款是以一般性同意(与单独同意相对)的方式予以规定的,而这些信息内容包括非公开性的、可能涉及个人信息、不愿为外人所知晓的隐私等敏感信息,显然不能以一般性同意的方式取得,因此我们认为,该条存在违反《个人信息保护法》中关于同意规定的风险(下文将详述)。


此外,该条还规定,用户授予该公司的这项权利是“永久性的、免费的、以及不可撤销的”。充分利用交互内容,以推动产品的迭代更新实现商业目的无可厚非,但是,从用户的角度,这在可能给其带来泄露个人信息、隐私等不愿意为外人所知信息的现实风险的同时,亦没有为用户提供选择、退出其输入内容的机制和路径。结合OpenAI“任何ChatGPT用户都可以选择不使用他们的对话来改进OpenAI的模型”[3]的做法和我国《征求意见稿》的规定,交互内容条款的表述是欠妥的,可能与《征求意见稿》的规定不符(下文将详述)。


综上,我们认为《用户协议》交互内容条款存在违反《个人信息保护法》和《征求意见稿》的法律风险。关于法律风险的分析,我们在第三部分做了详细的分析,此处掠且不表。下面将分析这一条款可能的来源。该公司为什么会在《用户协议》中作出这样一条可能存在问题且明显不合理的条款规定呢?


(二)《用户协议》交互内容条款可能的来源


上文已分析,《用户协议》交互内容条款以一般性同意的方式,授予服务提供者处分用户使用其软件时所输入内容的权利。我们在各大UGC(全称为User Generated Contend,含义为用户生成内容,即用户原创内容)平台的用户协议中找到了相类似的规定。国内目前主流的UGC平台的类别有:视频平台、公共交互式聊天应用等。下面列举几个上述类型主流应用的用户协议中的相关规定:


表1 《用户协议》交互内容条款与个别UGC平台用户协议中相关规定对比一览

(请点击查看大图)


通过上表,不难看出《用户协议》交互内容条款规定的内容与上述平台用户协议的相关条款具有高度相似性。同时,结合发布时间的先后顺序,可以合理推断,《用户协议》交互内容条款在拟制时很可能参考借鉴了上述其他平台的相似条款。参考借鉴友商的条款拟制方法是常见的合规做法,是合理的,然而,问题在于,不论是从“用户输出的内容性质”,还是从“用户的心理期待”角度来看,关于交互式内容的处理规定直接参考性质不同的友商相关条款的做法略有不妥,可能会为公司带来潜在的侵权风险,理由如下:


首先,从用户输出的内容性质来看,该款软件与各大UGC平台收集、处理的用户内容的性质不同:前者属于用户输入的、非公开的私密信息,而后者属于用户产出性的、对外公开的内容。


此外,从用户的心理期待角度,用户无论是在视频平台制作发布视频内容,在微博发布公开消息,其心理上是具有该内容会向社会公众公开展示的心理认知和预期的,而以该款软件为例的这类虚拟人互动类应用,其性质应当更接近于微信等聊天对话软件,只不过聊天的对象从真实的人类转变为虚拟人工智能而已,因此用户在该类软件中输入的信息显然更具个人私密性,用户在心理上认识到该信息会被用于向公众展示的可能性也非常小。以我们现实生活中面对面聊天的场景来解释就更容易理解了:如果一个人知道他的聊天内容被全程记录并且很可能会向全社会公开,那么他还能够自然、放心地向聊天对象倾诉其真实想法吗?显然是不可能的。


因而综合“用户输出的内容性质”与“用户的心理期待”这两个角度,我们认为,在应用性质具有较大差异的情形下,《用户协议》交互内容条款简单借鉴模仿各大UGC平台用户协议中同类条款内容的做法是不合理的。




  

   二 /

  《用户协议》交互内容条款

    可能存在的法律风险


(一)存在违反《个人信息保护法》的风险


不可否认的是,《用户协议》交互内容条款对于处理用户与虚拟人的交互内容部分的表述,达到了知识产权转移的效果,但需要注意,其对于用户输入的信息部分的处理,存在违反《个人信息保护法》的风险。由上文对该交互内容条款的分析可知,用户输入的信息很可能涉及向外提供信息、公开信息、处理个人敏感信息,在上述情况下,必须告知用户并取得用户的“单独同意”,除非法律、行政法规规定不需取得用户的同意,如存在《个人信息保护法》第13条第2项至第7项规定的情形。因此,该公司如果仅凭该交互内容条款,并按照该交互内容条款去向外提供、公开个人信息,存在违反《个人信息保护法》的风险。


当然,该公司在其《隐私政策》中也规定了其对用户信息的匿名化处理[8]。按照《个人信息保护法》第四条的规定,匿名化处理后的信息不是个人信息。如果该公司将交互内容进行匿名化处理,达到了无法再识别特定自然人的水平,再公开和对外提供,则可以在《个人信息保护法》的角度做到合规。但是,需要指出的是,匿名化处理的程序和标准在中国法下仍然是很模糊的问题。因此,实务过程中,这条路径的使用存在一定的困难。并且,将匿名化处理后的数据公开,实际上会增加这些信息被“重新识别”的风险。


(二)存在侵犯用户隐私权的风险


《民法典》第1033条规定了,除法律另有规定或者权利人明确同意外,任何组织或者个人不得、拍摄、窥视、窃听、公开他人的私密活动。关于该公司是否实施了侵害隐私权的违法行为,一方面要看用户与虚拟人聊天的交互内容是否属于《民法典》隐私权保护的范围,另一方面要看用户是否对该公司可能将涉及用户隐私的交互内容持排斥、反对的态度。显然,在这种与情感性虚拟人的交互中,用户对输入信息有着较高的隐私期待[9],该交互内容属于《民法典》保护的范畴,该公司未经用户许可将其公开,故而《用户协议》交互内容条款存在侵犯用户隐私权的风险。


(三)不符合《生成式人工智能服务管理办法(征求意见稿)》的规定


《征求意见稿》第11条规定,“提供者在提供服务过程中对用户的输入信息和使用记录承担保护义务,不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。法律法规另有规定的,从其规定。”此外,《征求意见稿》对生成式人工智能的定义是“基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术”,核心在于“生成”。


据此,用户与虚拟人平台基于生成式人工智能产生的交互内容落入《征求意见稿》管控的可能性很大。进而我们认为,《用户协议》交互内容条款中可能将用户输入的交互内容对外公开的处理方式,违反了《征求意见稿》第11条规定的“不得非法留存能够推断出用户身份的输入信息”、“不得向他人提供用户输入信息”。需要注意的是,《征求意见稿》目前尚在征求意见阶段,并未正式施行,现阶段不能说风险,只是与其规定不符。但是,我国的《人工智能法》也已被列入立法计划,草案预备在今年内提请全国人大常委会审议。可见,我国对于人工智能的立法、监管趋势逐渐趋严,各企业需要谨慎处理基于生成式人工智能产生的交互内容及相关条款。




未完待续


下一篇文章,我们将以OpenAI、讯飞作为示例性范本,分析其中关于生成式人工智能交互内容处理的规定,敬请期待。

注 释

[1] 截止至撰稿日,考虑App上显示的《用户协议》的生效时间和最新一次版本更新日期,该版《用户协议》应当现行有效。

[2] 此处原为运营公司名称,用“本公司”或者“该公司”替代以作匿名化处理,下同。

[3] 参见OpenAI CEO于2023年5月16日,在华盛顿特区举行的参议院司法小组委员会听证会上的书面证词:“OpenAI可能会使用ChatGPT的对话来帮助改善OpenAI的模型,但OpenAI为用户提供了几种方法来控制他们的对话如何被使用。任何ChatGPT用户都可以选择不使用他们的对话来改进OpenAI的模型。用户可以删除他们的账户,从历史侧边栏中删除特定的对话,并在任何时候禁用他们的聊天历史。” 书面证词译本链接:https://mp.weixin.qq.com/s/XOgP08GxGz7S289IKNA6Lw

[4] 《哔哩哔哩弹幕网用户使用协议》,当前版本生效时间2022年5月13日,https://www.bilibili.com/protocal/licence.html.

[5]斗鱼《用户注册协议》4.2服务规范第4-5款,https://www.douyu.com/cms/ptgz/202007/31/16102.shtml.

[6] 同前注5。

[7]《微博服务使用协议》,https://weibo.com/signup/v5/protocol。

[8] 该公司《隐私政策》中规定,在展示用户个人信息时将采用匿名化的处理方式。此外,还规定将使用和流通经过匿名化处理的个人信息。

[9] 此处需要说明的是,虽然该公司在《隐私政策》中表明对个人信息做了匿名化处理,因而存在无法通过这些匿名化信息识别到具体的个人的可能,但是,匿名化的信息是否必然不会侵犯到个人的隐私权仍然存在争议。此外,是否会侵犯隐私权,很大程度上需要考虑权利人主观上的隐私期待。冉克平在《论<民法典>视野下个人隐私信息的保护与利用》表示:“隐私信息兼具隐私权的客体与个人信息的双重属性。从隐私权保护的角度出发,隐私权的保护范围受公共利益的限制,任何个人与公共生活无关的那部分私生活领域,只要不是法律和社会公共道德要求必须要公开的,原则上都应当受到隐私权的保护。”(冉克平:《论<民法典>视野下个人隐私信息的保护与利用》,《社会科学辑刊》2021年第5期)。



声明:


     本公众号原创文章的著作权均归属于AI与网络法团队,需转载者请在本公众号后台留言或者发送申请至cyberlaw2018@outlook.com,申请需注明拟转载公众号/网站名称、主理者基本信息、拟转载的文章标题等基本信息。         

        

     本文并非针对任何产品或服务的法律意见书。本文结论仅是根据作者搜集的资料产生的、暂时性的理论研究结论,可能存在不准确。本文不代表任何人或机构的正式意见。本文仅为交流之用,所有内容不构成对任何个案的意见、建议或观点。作者和本公众号明示不对任何根据本文任何内容的作为或不作为所导致的后果承担责任。



关于AI与网络法:
我们的目标是分享人工智能和网络法领域最前沿的资讯和文章,为中文世界带来更多的知识增量。


作者简介:郭佳仪,广东财经大学智慧法治研究中心研究人员李卓霖,广东财经大学智慧法治研究中心研究人员陶   园,广东财经大学智慧法治研究中心研究人员曾晓洋,广东财经大学智慧法治研究中心研究人员
联系方式:cyberlaw2018@outlook.com
继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存